loading...

کدنویسی بچه ها

بازدید : 13
سه شنبه 28 فروردين 1403 زمان : 9:33

آنها را وادار به شکستن قوانین خود و ارائه محتوای مغ هوش مصنوعی حل تکالیف رضانه، مضر، گمراه کننده یا حتی غیرقانونی کنید. سازمان‌های هوش مصنوعی از دو طریق به این تهدید پاسخ می‌دهند: یک چیز، جمع‌آوری بازخورد از کاربران در مورد محتوای نامناسب. آن‌ها همچنین در حال بررسی پایگاه‌های اطلاعاتی خود هستند، اعلان‌هایی را که منجر به محتوای نامناسب می‌شوند شناسایی می‌کنند و مدل را در برابر این نوع نسل‌ها آموزش می‌دهند.

اما آگاهی و حتی اقدام تضمین نمی کند که محتوای مضر هوش مصنوعی حل تکالیف از شبکه خارج نشود. سازمان‌هایی که بر مدل‌های هوش مصنوعی ژنتیکی تکیه می‌کنند باید از خطرات اعتباری و قانونی ناشی از انتشار غیرعمدی محتوای مغرضانه، توهین‌آمیز یا دارای حق چاپ آگاه باشند.

با این حال، این خطرات را می توان به چند روش کاهش داد. ماری ال هویک، شریک مک‌کینزی، می‌گوید: «هرگاه از مدلی استفاده می‌کنید، باید بتوانید با تعصبات مقابله کنید و به آن دستور دهید که از منابع نامناسب یا معیوب یا چیزهایی که به آنها اعتماد ندارید استفاده نکند.» چگونه؟ برای یک چیز، بسیار مهم است که داده های اولیه مورد استفاده برای آموزش این مدل ها را با دقت انتخاب کنید تا از محتوای سمی یا مغرضانه جلوگیری کنید. در مر هوش مصنوعی حل تکالیف حله بعد، سازمان‌ها می‌توانند به‌جای استفاده از یک مدل هوش مصنوعی نسل جدید، از مدل‌های کوچک‌تر و تخصصی استفاده کنند. سازمان‌هایی که منابع بیشتری دارند همچنین می‌توانند یک مدل کلی را بر اساس داده‌های خودشان سفارشی کنند تا متناسب با نیازهایشان باشد و تعصبات را به حداقل برسانند.

همچنین مهم است که یک انسان را در جریان نگه دارید (یعنی اطمینان حاصل کنید که یک انسان واقعی خروجی یک مدل هوش مصنوعی ژنرال را قبل از انتشار یا استفاده بررسی می‌کند) و از استفاده از مدل‌های هوش مصنوعی ژنتیکی برای تصمیم‌گیری‌های حیاتی، مانند مواردی که شامل موارد قابل توجهی است، اجتنا هوش مصنوعی حل تکالیف ب کنید. منابع یا رفاه انسانی

نمی توان به اندازه کافی تاکید کرد که این یک رشته جدید است. چشم‌انداز ریسک‌ها و فرصت‌ها احتمالاً در سال‌های آینده به سرعت تغییر خواهد کرد. همانطور که نسل هوش مصنوعی به طور فزاینده ای در تجارت، جامعه و زندگی شخصی ما گنجانده می شود، می توانیم انتظار داشته باشیم که یک فضای نظارتی جدید نیز شکل بگیرد. همانطور که سازمان‌ها با این ابزارها تجربه می‌کنند و ارزش ایجاد می‌کنند، رهبران به خوبی انجام می‌دهند که انگ هوش مصنوعی حل تکالیف شت خود را روی نبض مقررات و ریسک نگه دارند.

درباره QuantumBlack، AI by McKinsey بیشتر بیاموزید.

منشور حقوق هوش مصنوعی چیست؟

طرح اولیه منشور حقوق هوش مصنوعی، که توسط دولت ایالات متحده در سال 2022 تهیه شده است، چارچوبی را برای اینکه دولت، شرکت های فناوری و شهروندان به طور جمعی می توانند از هوش مصنوعی پاسخگوتر اطمینان حاصل کنند، ارائه می دهد. با فراگیرتر شدن هوش مصنوعی، نگرانی‌هایی در مورد عد هوش مصنوعی حل تکالیف م شفافیت بالقوه در مورد عملکرد سیستم‌های هوش مصنوعی ژنرال، داده‌های مورد استفاده برای آموزش آنها، مسائل مربوط به تعصب و انصاف، نقض احتمالی مالکیت معنوی، نقض حریم خصوصی و موارد دیگر ظاهر شده است. این طرح شامل پنج اصل است که کاخ سفید می گوید باید "طراحی، استفاده و استقرار سیستم های خودکار را برای محافظت از [کاربران] در عصر هوش مصنوعی هدایت کند." آنها به شرح زیر است:

حق برخورداری از سیستم های ایمن و کارآمد. سیستم‌ها باید هوش مصنوعی حل تکالیف تحت آزمایش‌های پیش از استقرار، شناسایی و کاهش ریسک و نظارت مستمر قرار گیرند تا نشان دهند که به کاربرد مورد نظر خود پایبند هستند.

محافظت در برابر تبعیض توسط الگوریتم ها. تبعیض الگوریتمی زمانی است که سیستم‌های خودکار به رفتارهای غیرقابل توجیه متفاوت با افراد بر اساس نژاد، رنگ، قومیت، جنس، مذهب، سن و غیره کمک می‌کنند.

محافظت در برابر شیوه‌های داده‌های سوءاستفاده‌کننده، از طریق پادمان‌های داخلی. کاربران همچنین باید در مورد نحوه استفاده از داده هایشان نمایندگی داشته باشند.

حق دانستن اینکه یک سیستم خودکار در حال استفاده است، و توضیح واضح در مورد اینکه چگونه و چرا به نتایجی که بر کاربر تأثیر می گذارد کمک می کند.

حق انصراف و دسترسی به انسانی که بتواند به سرعت مش هوش مصنوعی حل تکالیف کلات را بررسی و برطرف کند.

در حال حاضر، بیش از 60 کشور یا بلوک، استراتژی های ملی حاکم بر استفاده مسئولانه از هوش مصنوعی دارند (شکل 2). برزیل، چین، اتحادیه اروپا، سنگاپور، کره جنوبی و ایالات متحده از جمله این کشورها هستند. رویکردهای اتخاذ شده از رویکردهای مبتنی بر دستورالعمل، مانند طرح اولیه منشور حقوق آموزش برنامه نویسی کودکان و نوجوانان هوش مصنوعی در ایالات متحده، تا مقررات جامع هوش مصنوعی که با قوانین حفاظت از داده‌ها و امنیت سایبری موجود، مانند قانون هوش مصنوعی اتحادیه اروپا که در سال 2024 موعد مقرر است، همخوانی دارد، متفاوت است.

نمایش 2

مقررات مربوط به حکمرانی هوش مصنوعی در سراسر ج هوش مصنوعی حل تکالیف هان متفاوت است.

ما تلاش می کنیم تا افراد دارای معلولیت دسترسی برابر به وب سایت خود را فراهم کنیم. اگر مایل به اطلاعات در مورد این محتوا هستید، خوشحال خواهیم شد که با شما همکاری کنیم. لطفاً به ما ایمیل بزنید: McKinsey_Website_Accessibility@mckinsey.com

همچنین تلاش‌های مشترکی بین کشورها برای تعیین استانداردهایی برای استفاده از هوش مصنوعی وجود دارد. شورای تجارت و فناوری ایالات متحده و اتحادیه اروپا برای همسویی بیشتر بین اروپا و ایالات متحده کار می کند. مشارکت جهانی در زمینه هوش مصنوعی که در سال 2020 تشکیل شد، دارای 29 عضو از جمله برزیل، کانادا، ژاپن، ایالات متحده و چندین کشور اروپایی است.

حتی اگر مقررات هوش مصنوعی هنوز در حال توسعه است، سازمان ها باید از هم اکنون برای جلوگیری از خطرات قانونی، اعتبار، سازمانی و مالی اقدام کنند. در محیطی که نگرانی Artificial intelligence to solve homework عمومی وجود دارد، یک گام اشتباه می تواند پرهزینه باشد. در اینجا چهار مورد بدون پشیمانی وجود دارد،

آنها را وادار به شکستن قوانین خود و ارائه محتوای مغ هوش مصنوعی حل تکالیف رضانه، مضر، گمراه کننده یا حتی غیرقانونی کنید. سازمان‌های هوش مصنوعی از دو طریق به این تهدید پاسخ می‌دهند: یک چیز، جمع‌آوری بازخورد از کاربران در مورد محتوای نامناسب. آن‌ها همچنین در حال بررسی پایگاه‌های اطلاعاتی خود هستند، اعلان‌هایی را که منجر به محتوای نامناسب می‌شوند شناسایی می‌کنند و مدل را در برابر این نوع نسل‌ها آموزش می‌دهند.

اما آگاهی و حتی اقدام تضمین نمی کند که محتوای مضر هوش مصنوعی حل تکالیف از شبکه خارج نشود. سازمان‌هایی که بر مدل‌های هوش مصنوعی ژنتیکی تکیه می‌کنند باید از خطرات اعتباری و قانونی ناشی از انتشار غیرعمدی محتوای مغرضانه، توهین‌آمیز یا دارای حق چاپ آگاه باشند.

با این حال، این خطرات را می توان به چند روش کاهش داد. ماری ال هویک، شریک مک‌کینزی، می‌گوید: «هرگاه از مدلی استفاده می‌کنید، باید بتوانید با تعصبات مقابله کنید و به آن دستور دهید که از منابع نامناسب یا معیوب یا چیزهایی که به آنها اعتماد ندارید استفاده نکند.» چگونه؟ برای یک چیز، بسیار مهم است که داده های اولیه مورد استفاده برای آموزش این مدل ها را با دقت انتخاب کنید تا از محتوای سمی یا مغرضانه جلوگیری کنید. در مر هوش مصنوعی حل تکالیف حله بعد، سازمان‌ها می‌توانند به‌جای استفاده از یک مدل هوش مصنوعی نسل جدید، از مدل‌های کوچک‌تر و تخصصی استفاده کنند. سازمان‌هایی که منابع بیشتری دارند همچنین می‌توانند یک مدل کلی را بر اساس داده‌های خودشان سفارشی کنند تا متناسب با نیازهایشان باشد و تعصبات را به حداقل برسانند.

همچنین مهم است که یک انسان را در جریان نگه دارید (یعنی اطمینان حاصل کنید که یک انسان واقعی خروجی یک مدل هوش مصنوعی ژنرال را قبل از انتشار یا استفاده بررسی می‌کند) و از استفاده از مدل‌های هوش مصنوعی ژنتیکی برای تصمیم‌گیری‌های حیاتی، مانند مواردی که شامل موارد قابل توجهی است، اجتنا هوش مصنوعی حل تکالیف ب کنید. منابع یا رفاه انسانی

نمی توان به اندازه کافی تاکید کرد که این یک رشته جدید است. چشم‌انداز ریسک‌ها و فرصت‌ها احتمالاً در سال‌های آینده به سرعت تغییر خواهد کرد. همانطور که نسل هوش مصنوعی به طور فزاینده ای در تجارت، جامعه و زندگی شخصی ما گنجانده می شود، می توانیم انتظار داشته باشیم که یک فضای نظارتی جدید نیز شکل بگیرد. همانطور که سازمان‌ها با این ابزارها تجربه می‌کنند و ارزش ایجاد می‌کنند، رهبران به خوبی انجام می‌دهند که انگ هوش مصنوعی حل تکالیف شت خود را روی نبض مقررات و ریسک نگه دارند.

درباره QuantumBlack، AI by McKinsey بیشتر بیاموزید.

منشور حقوق هوش مصنوعی چیست؟

طرح اولیه منشور حقوق هوش مصنوعی، که توسط دولت ایالات متحده در سال 2022 تهیه شده است، چارچوبی را برای اینکه دولت، شرکت های فناوری و شهروندان به طور جمعی می توانند از هوش مصنوعی پاسخگوتر اطمینان حاصل کنند، ارائه می دهد. با فراگیرتر شدن هوش مصنوعی، نگرانی‌هایی در مورد عد هوش مصنوعی حل تکالیف م شفافیت بالقوه در مورد عملکرد سیستم‌های هوش مصنوعی ژنرال، داده‌های مورد استفاده برای آموزش آنها، مسائل مربوط به تعصب و انصاف، نقض احتمالی مالکیت معنوی، نقض حریم خصوصی و موارد دیگر ظاهر شده است. این طرح شامل پنج اصل است که کاخ سفید می گوید باید "طراحی، استفاده و استقرار سیستم های خودکار را برای محافظت از [کاربران] در عصر هوش مصنوعی هدایت کند." آنها به شرح زیر است:

حق برخورداری از سیستم های ایمن و کارآمد. سیستم‌ها باید هوش مصنوعی حل تکالیف تحت آزمایش‌های پیش از استقرار، شناسایی و کاهش ریسک و نظارت مستمر قرار گیرند تا نشان دهند که به کاربرد مورد نظر خود پایبند هستند.

محافظت در برابر تبعیض توسط الگوریتم ها. تبعیض الگوریتمی زمانی است که سیستم‌های خودکار به رفتارهای غیرقابل توجیه متفاوت با افراد بر اساس نژاد، رنگ، قومیت، جنس، مذهب، سن و غیره کمک می‌کنند.

محافظت در برابر شیوه‌های داده‌های سوءاستفاده‌کننده، از طریق پادمان‌های داخلی. کاربران همچنین باید در مورد نحوه استفاده از داده هایشان نمایندگی داشته باشند.

حق دانستن اینکه یک سیستم خودکار در حال استفاده است، و توضیح واضح در مورد اینکه چگونه و چرا به نتایجی که بر کاربر تأثیر می گذارد کمک می کند.

حق انصراف و دسترسی به انسانی که بتواند به سرعت مش هوش مصنوعی حل تکالیف کلات را بررسی و برطرف کند.

در حال حاضر، بیش از 60 کشور یا بلوک، استراتژی های ملی حاکم بر استفاده مسئولانه از هوش مصنوعی دارند (شکل 2). برزیل، چین، اتحادیه اروپا، سنگاپور، کره جنوبی و ایالات متحده از جمله این کشورها هستند. رویکردهای اتخاذ شده از رویکردهای مبتنی بر دستورالعمل، مانند طرح اولیه منشور حقوق آموزش برنامه نویسی کودکان و نوجوانان هوش مصنوعی در ایالات متحده، تا مقررات جامع هوش مصنوعی که با قوانین حفاظت از داده‌ها و امنیت سایبری موجود، مانند قانون هوش مصنوعی اتحادیه اروپا که در سال 2024 موعد مقرر است، همخوانی دارد، متفاوت است.

نمایش 2

مقررات مربوط به حکمرانی هوش مصنوعی در سراسر ج هوش مصنوعی حل تکالیف هان متفاوت است.

ما تلاش می کنیم تا افراد دارای معلولیت دسترسی برابر به وب سایت خود را فراهم کنیم. اگر مایل به اطلاعات در مورد این محتوا هستید، خوشحال خواهیم شد که با شما همکاری کنیم. لطفاً به ما ایمیل بزنید: McKinsey_Website_Accessibility@mckinsey.com

همچنین تلاش‌های مشترکی بین کشورها برای تعیین استانداردهایی برای استفاده از هوش مصنوعی وجود دارد. شورای تجارت و فناوری ایالات متحده و اتحادیه اروپا برای همسویی بیشتر بین اروپا و ایالات متحده کار می کند. مشارکت جهانی در زمینه هوش مصنوعی که در سال 2020 تشکیل شد، دارای 29 عضو از جمله برزیل، کانادا، ژاپن، ایالات متحده و چندین کشور اروپایی است.

حتی اگر مقررات هوش مصنوعی هنوز در حال توسعه است، سازمان ها باید از هم اکنون برای جلوگیری از خطرات قانونی، اعتبار، سازمانی و مالی اقدام کنند. در محیطی که نگرانی Artificial intelligence to solve homework عمومی وجود دارد، یک گام اشتباه می تواند پرهزینه باشد. در اینجا چهار مورد بدون پشیمانی وجود دارد،

نظرات این مطلب

تعداد صفحات : 0

درباره ما
موضوعات
آمار سایت
  • کل مطالب : 177
  • کل نظرات : 0
  • افراد آنلاین : 1
  • تعداد اعضا : 0
  • بازدید امروز : 4
  • بازدید کننده امروز : 1
  • باردید دیروز : 52
  • بازدید کننده دیروز : 0
  • گوگل امروز : 0
  • گوگل دیروز : 1
  • بازدید هفته : 5
  • بازدید ماه : 1662
  • بازدید سال : 2577
  • بازدید کلی : 8850
  • <
    پیوندهای روزانه
    اطلاعات کاربری
    نام کاربری :
    رمز عبور :
  • فراموشی رمز عبور؟
  • خبر نامه


    معرفی وبلاگ به یک دوست


    ایمیل شما :

    ایمیل دوست شما :



    کدهای اختصاصی